在过去的几十年中,研究人员主要专注于提高模型的概括能力,而对调节这种概括的关注有限。然而,模块化对意外数据(例如有害或未经授权的数据)的能力可以被恶意对手以无法预见的方式利用,这可能导致违反模型伦理的行为。不可转移的学习(NTL)提议解决这些挑战,旨在重塑深度学习模型的一般能力。尽管在该领域提出了Nuber的方法,但仍缺乏对现有进展的全面审查,并且对当前局限性进行了彻底的分析。在本文中,我们通过对NTL进行首次全面调查并引入NTLBENCH来弥合这一差距,这是评估NTL性能和鲁棒性在统一框架中的第一个基准。具体来说,我们首先介绍了NTL的任务设置,一般框架和criaia,然后进行NTL AP-aperaches的摘要。此外,我们强调了对各种AT-
主要关键词
![arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第1页](/bimg/e/ee0734d044083d2ac84c19067379b1151a77846c.webp)
![arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第2页](/bimg/9/95fd50254d25620187c63ef2f4b43f86ed266a10.webp)
![arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第3页](/bimg/e/e07484fbff4cccd5acdff54a920d8194764a5b42.webp)
![arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第4页](/bimg/8/8b15aea603100facbf38078633442490ef946ada.webp)
![arxiv:2502.13593v1 [cs.lg] 2025年2月19日PDF文件第5页](/bimg/0/01dbe9827c535c02f8f7d9acc5ea3f9740bac355.webp)
